Passer au contenu

À San Francisco, l’IA au service de la justice pour éviter les biais racistes

Et si la justice s’appuyait sur l’intelligence artificielle pour être la plus impartiale possible ? C’est le pari que fait la ville californienne, qui va mettre en place un outil intelligent pour éviter le biais racistes dès le mois de juillet. Une première mondiale.

San Francisco, toujours à l’avant-garde de la Tech. Selon The Verge, la ville californienne a annoncé, mercredi 12 juin, un nouvel « outil de limitation des biais ». Une intelligence artificielle capable d’identifier les biais racistes dans les rapports de police. L’objectif ? Empêcher les procureurs d’être influencés par l’origine d’un individu dans leur jugement. L’IA devrait être opérationnelle dès le 1er juillet.

Et ce n’est pas tout. L’outil supprimera également automatiquement les descriptions physiques plus générales, telles que la couleur des cheveux ou des yeux. Les éléments de contexte, comme l’adresse et le nom, seront aussi susceptibles d’être masqués –dans les cas où l’environnement social pourrait biaiser les décisions judiciaires.

« Quand vous regardez qui est incarcéré dans ce pays, les hommes et les femmes de couleur sont surreprésentés », a déclaré le procureur californien George Gascon à la presse américaine. A ce titre, il faisait remarquer que si le juge voit un nom à consonance latino comme « Hernandez », son jugement pourrait en être affecté.

Neutraliser les rapports de police

Dans la même logique, certains détails concernant les policiers, comme leur numéro de badge, seront également enlevés du rapport. Il s’agit de neutraliser un maximum les compte-rendus.

L’outil a été mis au point par le chercheur Alex Chohlas-Wood et une équipe de l’université Stanford, à l’origine de l’IA qu’utilise la police de New York pour catégoriser les types de crimes automatiquement. Le nouvel outil est une application Web légère utilisant plusieurs algorithmes pour rédiger un rapport de police. La technologie, appelée « reconnaissance d’entité nommée » est capable de reconnaître des mots caractérisant les situations et les remplacer par des mots génériques, tels que « Lieu » ou « Policier 1 ». Il est en phase de finalisation et n’a rien coûté à la ville, précisent les chercheurs.

Jusqu’ici, ce travail se fait manuellement à San Francisco. « On devait créer une machine learning pour automatiser ce processus », a expliqué George Gascon. Le procureur s’est félicité de cette « première » dans tout le pays.

Mais cette utilisation judiciaire de la tech soulève certaines inquiétudes. L’IA est actuellement plus connue pour introduire les biais que pour les supprimer. A ces angoisses, le juge californien a répondu que ce n’était qu’un point de départ et que l’outil devra forcément évoluer.

Source : The Verge

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Marion SIMON-RAINAUD